■ 진행 : 김영수 앵커, 엄지민 앵커
■ 출연 : 임종인 고려대 정보보호대학원 교수
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 더뉴스] 명시해주시기 바랍니다.
◇앵커> 지금 정치 선거뿐만이 아니에요. 연예인의 딥페이크 영상이 사기에 악용되는 사례가 많이 발생하고 있는데 저희가 정리를 했습니다. 테일러 스위프트 같은 경우에 얼굴이 합성된 음란 이미지 유포가 된 적이 있고요. 조 바이든 대통령 같은 경우에는 바이든 대통령 목소리로 민주당 당원에게 투표 거부 독려 전화를 하기도 했고. 일론 머스크, 비트코인 투자자 모집 거짓 홍보 영상이 유포돼서 논란이 됐었고요. 앞서 잠깐 조인성 배우, 송혜교 배우, 투자 권유하는 거짓 영상 유포. 저 영상을 보고 현혹되거나 그런 분들이 많다고 하더라고요.
◆임종인> 그러니까 전에는 사실은 어떤 언론, 미디어에 나오면 국민들이 어디 방송에 나왔어, 신문에 나왔어 믿었는데, 편집 기능이 있으니까. 지금은 그게 어려워졌기 때문에 앞으로 이 부분을 어떻게 해결하느냐, 이게 언론의 문제인 것 같습니다.
◇앵커> AI 기술이 계속 발전하기는 하는데 단속하는 기술도 발전해야 되는 것 아니에요?
◆임종인> 지금 그러고 있습니다. 그러고 있는데 결국은 이게 창과 방패의 싸움이라고 그러지 않습니까? 그리고 암시장에서. 우리가 대북제재를 아무리 해도 김정은 이 사람 하잖아요. 그런 식으로. 그게 문제입니다.
◇앵커> 직접적인 피해 사례가 있었잖아요. 조인성 배우, 송혜교 배우 같은 경우에는. 그러면 이것을 본 투자자들, 투자하기 전에 직접 결정하기 전에 검색을 해보고 좀 더 알아보는 이 정도의 검증밖에 없겠네요?
◆임종인> 그렇죠. 우리 보이스피싱이나 이런 거 당하면 바로 하지 말고 그 기관에 직접 확인 전화를 걸라고 하잖아요. 그런 식으로 향후에 정부에서 피해를 막기 위해서 각 분야별로 검증할 수 있는 시스템을 갖추기는 갖춰야 되겠죠.
대담 발췌 : 이미영 디지털뉴스팀 에디터
#Y녹취록
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
▶ 기사 원문 : https://www.ytn.co.kr/_ln/0134_202402231707521893
▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, social@ytn.co.kr, #2424
▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs
[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]